随着人工智能 (AI) 变得越来越普遍,监管机构越来越需要为此类系统做出的决策提供解释。然而,执行有意义的解释权的需求与机器学习系统满足此类法律要求的能力之间存在着持续的差距。监管机构对人工智能系统“解释权”的呼吁可以归因于解释在法律中的重要作用,解释是“理由给出”概念的一部分。因此,在本文中,我们研究了法律中理由给出的目的,以分析最终用户可解释性提供的理由是否能够充分满足这些目的。我们发现,理由给出的法律目的包括:(a) 做出更好、更公正的决策,(b) 促进正当程序,(c) 验证人类代理,以及 (d) 增强决策者的权威。使用这种方法,我们证明了终端用户可解释性不足以履行法律中的理由赋予职能,因为理由赋予职能依赖于其对人类决策者的影响。因此,终端用户可解释性未能或不适合履行第一、第二和第三个法律职能。相比之下,我们发现终端用户可解释性在第四个职能上表现出色,考虑到最近的终端用户可解释性研究趋势、大型语言模型的能力以及人类和机器操纵终端用户的能力,这一品质带来了严重风险。因此,我们认为在某些情况下,人工智能系统的解释权可能会给终端用户带来更多的伤害而不是好处。因此,这项研究具有一些重要的政策影响,因为它呼吁监管者和机器学习从业者重新考虑对终端用户可解释性和人工智能系统解释权的广泛追求。
主要关键词